محققان IBM، موفق به طراحی تراشهی جدیدی با سرعت بالا و مصرف بهینه انرژی برای آموزش هوش مصنوعی شدند.
به لطف تراشههای قدرتمند گرافیکی و پیشرفتهای صورت گرفته در حوزهی محاسبات توزیع شده، بهینهسازی الگوریتمها به عنوان هستهی اصلی هوش مصنوعی آسانتر از همیشه شده است. اما حتی در تراشههای گرافیکی قدرتمند هم، ممکن است روزها یا هفتهها طول بکشد تا شبکهی عصبی را آموزش بدهند و به همین دلیل این تراشههای قدرتمند در سخت افزارهای فعلی عملا کارایی چندانی ندارند و استفاده از آنها بهینه نیست.
محققان شرکت IBM موفق به طراحی تراشهی جدیدی برای آموزش هوش مصنوعی شدند که فرآیند آموزش، در آن تسریع شده است. تیتر مقالهی اخیر نشریهی Nature دربارهی تراشهی جدید گویای این موضوع است؛ افزایش سرعت آموزش شبکهی عصبی با استفاده از حافظهی آنالوگ. تیتر مقاله نشان میدهد طراحی جدید سیستم ترانزیستورها و خازنها، باعث بالارفتن سرعت آموزش شبکههای عصبی و مصرف بهینه انرژی میشود.
افزایش کارایی هوش مصنوعی با سیناپس مصنوعی جدید آی بی ام
شبکههای عصبی شامل واحدهای به هم پیوستهای به نام نورونها یا گرهها هستند. مجموعهای از گرهها، لایه نامیده میشود. شبکههای عصبی ورودیهای عددی را دریافت میکنند. در یک شبکهی پایه، نورونهای منفرد، مقادیر عددی ورودی را در مقدار یا وزنی ضرب میکنند و مقدار نهایی به تابع فعالسازی که خروجی گره را تعیین میکند، منتقل میشود. با استفاده از استراتژی به نام Back Propagation، این مقادیر وزنی در طول زمان تعدیل و تنظیم میشوند و باعث افزایش دقت در محاسبات خروجیها خواهد شد.
برخلاف پردازندههای سنتی که اعداد به صورت پیوسته به محاسبات وارد میشوند؛ GPUها، به صورت موازی محاسبات را انجام میدهند و برای فرآیندهایی سریع بسیار مناسب هستند و مصرف انرژی کمتری دارند. به دلیل اینکه پردازنده و حافظه در تراشههای گرافیکی فاصله زیادی از یکدیگر روی مادربرد دارند، تاخیرهایی برای رفت و برگشت دادهها بین آنها دیده میشود. استافانو آمبرگیو، یکی از محققان IBM که نقش برجستهای در پروژهی طراحی تراشهی جدید دارد، اعلام کرد:
رایانه های معمولی که برای مصرف عادی مورد استفاده قرار میگیرند، علاوه بر مصرف بالای انرژی، مدت زمان انتظار و تاخیر زیادی هم دارند.
راهکار پیشنهادی محققان برای حل این مساله، استفاده از حافظهی آنالوگ و قطعات الکترونیکی سنتی است. هر سلول مجزا و منفرد از یک جفت واحد حافظهی تغییر فاز (PCM)، و ترکیبی از یک خازن و سه ترانزیستور تشکیل شده است که به نورونهای منفرد و مجزای شبکهی عصبی پاسخ میدهد. PCMها، دادههای وزنی را که در ترانزیستورها و خازنها به صورت بار الکتریکی نشان داده شدهاند، در حافظه ذخیره میکنند.
وقتی شبکه در حال یادگیری است، خازن مقدار وزن را آپدیت میکند و بعد از هزاران سیکل، آن را به PCM انتقال میدهد. خازن نمیتواند مقادیر را بیش از چند میلی ثانیه در خود حفظ کند، اما قادر است آن مقادیر را به سرعت برنامهریزی کند. PCM، که نوعی حافظهی غیرفرار است، برای ذخیره دادهها به منبع قدرت بیرونی نیازی ندارد.
محققان برای رسیدن به هدف، ترکیبی از PCMهای سختافزاری و قطعات شبیهسازی شده نرمافزاری را برای ارزیابی طراحی مورد استفاده قرار دادند که در نهایت نتایج امیدوار کننده بود. تراشهی جدید توانست محاسبات را در هر میلیمتر مربع، ۱۰۰ برابر سریعتر از GPU به انجام برساند و مصرف انرژی ۲۸۰ برابر کمتری را مصرف کرد. آنچه بیش از همه جلب توجه میکند این است که این میزان سرعت و دقت با چارچوب یادگیری ماشین TensorFlow گوگل برای انواع وظایف مربوط به بینایی کامپیوتر مطابقت داشت.
آمبرگیو در ادامهی صحبتهای خود اضافه کرد:
میتوانیم محاسبات را به صورت دقیقتر و با دقتی در حد دقت نرمافزاری به انجام برسانیم.
تراشهی جدید طراحی شده، مسایل خاص خودش را دارد و برای شبکههای عصبی که کاملا به هم پیوسته نیستند، مانند شبکههای LSTM به کار برده شده در اپلیکیشنهای تشخیص گفتار پیشرفته، مناسب نیستند و منجر به مصرف بهینهی انرژی نخواهند شد. اما محققان در صدد هستند در ادامهی کار مسایل موجود را برطرف کرده و اقدامات لازم را به انجام برسانند.
آمبرگیو اطمینان دارد که تیم تحقیقاتی IBM میتواند در آیندهی نزدیک، تراشههای فیزیکی در مقیاس مناسب بسازد. تراشههای جدید برای آموزش شبکههای عصبی در گوشیهای هوشمند و سایر سیستمهایی که در حال حاضر فاقد منابع محاسباتی لازم هستند، کاربرد خواهد داشت.
آمبرگیو در ادامهی صحبتهای خود گفت:
موجب مسرت و خوشحالی است که وقتی نیاز هست، میتوانیم به صورت مستقیم، پردازشهای مبتنی بر هوش مصنوعی را به انجام برسانیم. وقتی شما قادر به آموزش دادن به یک مدل باشید، دیگر نیازی به ارسال اطلاعات به فضای ابری یا سیستم ارتباطی برای برقرار کردن ارتباط با چیزی نخواهید داشت و این سیستم میتواند فورا به هر شرایطی واکنش نشان دهد.